找了一輪資料,發現中文好像就是直接叫負責任 AI,今天會以這個主題也是因為寫最近幾篇文章,除了法規以外、信任感或永續發展,都有提到相關的概念,本來是想取名為可靠性 AI,但想想好像有些微不同,所以還是先沿用負責任 AI 這個名字。
負責任 AI 是一個確保 AI 技術以公平、安全、透明和負責的方式開發和運行的框架。其目的是減少 AI 技術可能帶來的倫理和社會風險,並確保技術的正確應用。核心原則包括:
微軟對負責任 AI 的核心架構建立在六大原則之上:公平性、可靠性、安全性、隱私與保密性、包容性、透明度及責任制。微軟透過 Azure Machine Learning 提供了負責任 AI 工具,例如公平性評量元件、模型解釋工具和反事實假設模擬,這些工具幫助開發者分析 AI 模型的行為和風險,並確保系統能夠以負責任的方式運行。
Google 的負責任 AI 架構則強調 AI 的社會效益、安全性以及避免不公平偏見。Google 設立了七項核心原則,包括:
更多核心原則,請參考 Google 的原則
此外,Google 還禁止開發或部署可能對人類造成傷害的技術,如武器或侵犯隱私的技術。
負責任 AI 的實踐在多個領域中展現了其價值。以微軟的 Tay 聊天機器人為例,該系統因缺乏倫理審核,在公開運行不到一天後便因被用戶訓練成發表種族和性別歧視言論而下線。這一事件反映了在 AI 開發中未能考慮到倫理問題所帶來的潛在風險。
例如 IBM 幫助一家美國公司開發了一個無偏見的招募 AI 工具,確保在吸引和招募人才時,系統能夠做出公平且可信的決策。此外 H&M 也創立了一個負責任 AI 團隊,致力於供應鏈優化和可持續發展的目標,同時確保技術在應用過程中不會對消費者或環境造成負面影響。